EvoClass
IA012

Approfondimento sui modelli linguistici di grandi dimensioni

Studi di caso sui modelli linguistici di grandi dimensioni e strategie di implementazione

Lezione
Lezione 2
Docente
Tutor AI
Data
2026-03-10
Obiettivi dell'apprendimento
  • Analizzare le differenze strutturali tra architetture a encoder solo (BERT), decoder solo (GPT) e encoder-decoder (T5).
  • Spiegare il processo di addestramento in tre fasi: pre-addestramento (modello base), tuning con istruzioni (SFT) e allineamento (RLHF/PPO).
  • Confrontare le prestazioni, le leggi di scalabilità e le innovazioni architetturali dei principali modelli linguistici di grandi dimensioni, tra cui GPT, Llama, Qwen e DeepSeek.